【学术前沿】郭旨龙 | 中国刑法何以预防人工智能犯罪
The following article is from 大数据和人工智能法律研究院 Author 郭旨龙
摘 要:国家需要及时合理地规范人工智能的风险状态,满足人们的安全信赖。人工智能犯罪主要在犯罪主体、犯罪行为和犯罪责任三个方面对原有刑法观念和刑法规范产生冲击,需要根据本国刑法应对计算机网络犯罪的实践经验和理论积累进行不断探索,内化生成体系化的预防性规范以应对冲击。人工智能短期内没有可谴责性和受刑能力,不具有犯罪主体资格,但相关单位成为犯罪的常见主体,应当进行预防性规制设计。犯罪行为当中的实行和参与观念的更新需要接受预防性犯罪化理念的指导,并对商业流程环节和行政把关环节进行预备行为实行化和共犯行为正犯化的考量;然后对客观归责和正当事由进行理论的预防性更新。主观方面的严格责任思路或者说客观的超过要素理论应当得到重视,甚至只要求对危险行为的责任,从而完善预防性责任理论。
关键词:机器人;单位犯罪;预防性犯罪化;风险归责;严格责任
未来已来,智能已能。随着阿尔法狗依靠自主学习人类棋谱完胜人类最强棋手,阿尔法元自己摸索棋谱后以100:0碾压阿尔法狗,人工智能激发了人们的思考和应对。随着自动驾驶、无人机、自动武器等人工智能研发不断取得突破,各国纷纷出台人工智能规划和规范。2017年7月我国发布《新一代人工智能发展规划》,提出“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。”在这个规范新技术风险的社会背景下,我国学者研究了人工智能时代的制度安排与法律规制,智能制造的法律挑战与基本对策,还研究了具体问题,如人工智能创造物的法律保护,人工智能有限法律人格,机器人法律权利问题。
但是,人工智能犯罪的刑法应对问题则仍然主要停留在会议研讨阶段,个别学者的诸多研讨也集中在刑事责任主体和刑罚体系等方面,对人工智能犯罪的客观违法性关注不足,而且未从我国应对新型技术犯罪的历程中寻找一以贯之的思路。域外已经有人工智能犯罪的最新研究,这是我国人工智能犯罪研究的比较对象。比如魏根特等德国、瑞士学者对人工智能犯罪主体和归责问题的德国法与美国法比较研究,再如研究电子人的行为及其刑事责任问题。这些例子表明人工智能犯罪的研究不是无章可寻。显然,不能一味套用德日刑法的现有教义学体系来试图解决人工智能犯罪的刑法问题,因为现有的刑法教义产生的社会实践是前人工智能时代。
人工智能犯罪研究的有效路径可以从科技变革的法律应对的大趋势中找到。2017年12月,习近平在主持中央政治局第二次集体学习时强调,实施国家大数据战略加快建设数字中国,推动制造业加数向数字化、网络化、智能化发展。整个信息科技革命的三个节点就是数字化、网络化、智能化:数字化是指从传统的有形信息载体转向计算机系统中的二进制无形载体,网络化则是将这些计算机系统互相连接,而智能化则是在万物互联、天地一体的基础上形成计算机系统自主化的人机交互。所以,人工智能的技术特点既有对原有信息科技的继承与弘扬,也有与原有科技截然不同的全新特性。人工智能犯罪的规制和研究从数字犯罪和网络犯罪的规制和研究中得到启发、予以创新,是一条可行之路。早期关于数字犯罪的司法解释解决的是录音录像制品、非法出版物犯罪问题,早期关于网络犯罪的司法解释解决是的淫秽物品犯罪网络异化问题。相关司法解释迄今总计数十个。中国刑法从1997年修订开始应对计算机网络犯罪,截止2015年《刑法修正案(九)》已经形成了较为系统的刑法规范。这些刑法规范和相关研究,是人工智能犯罪研究的基础。
从工业社会到智能风险社会,法律对策的考量不能坐等实际案例的积累。“法律体系的价值和意义就在于规范和追寻技术上的可以管理的哪怕是可能性很小或影响范围很小的风险和灾难的每一个细节。”为此,本文将从犯罪主体、犯罪行为和犯罪责任三方面探讨人工智能的主要冲击与刑法预防。
一、犯罪主体的双重变化
传统刑法关于犯罪主体实施的是自然人和单位并行的双轨制,这在人工智能时代面临新的冲击。首先,单位犯罪成为新常态;其次,人工智能本身能否成为犯罪主体是一个必须持续思量的问题。
(一)人工智能犯罪主体的单位化趋向
传统的犯罪一般是自然人犯罪为主流,单位犯罪为非主流。但是这一犯罪态势结构将在人工智能犯罪时代予以变更。人工智能以大数据为基础,原有的将人与人连接的社交软件公司如Facebook, Twitter,微信,将人与信息相连的搜索公司如谷歌和百度,将人与物相连的购物平台如亚马逊和淘宝,已经掌握了人类社会三种基本的大数据类型,并在马太效应的影响下,它们将继续在人工智能时代占据主导地位。产业趋势已经表明人工智能将主要由商业和政府实体驱动,而非小的私有主体,这也表明未来为规制者和司法者轻易识别的对象将主要是高度可视化的实体,而非个体的人工智能管控者。此时刑法将预防人工智能犯罪的义务赋加于单位实体身上,是正当的,也是基本有效的。
单位犯罪的常态化已经在计算机和网络犯罪的刑法规制中得到凸显。中国《刑法修正案(九)》通过实施后,网络犯罪的5个专有罪刑条款都配备了单位犯罪主体:具体是第285条原有的非法侵入计算机信息系统罪、非法获取计算机信息系统数据、非法控制计算机信息系统罪、提供侵入、非法控制计算机信息系统程序、工具罪,第286条原有的破坏计算机信息系统罪,第286条之一增设的拒不履行信息网络安全管理义务罪,第287条之一增设的非法利用信息网络罪,第287条之二增设的帮助信息网络犯罪活动罪。这种趋向需要我们系统反思网络单位犯罪刑事责任体系,进而提出当前适用和未来完善的理路。这些单位网络犯罪制裁体系的共同特征和可能的问题是:(1)采纳双罚制原则;(2)对责任人员采纳同罚制;(3)对单位仍然采取无限额罚金制;(4)单位网络犯罪处罚两类责任人(“直接负责的主管人员和其他直接责任人员”)。中国刑法应当借此契机系统反思和完善单位网络犯罪甚至整个单位犯罪的刑事责任体系。
如何完善单位智能犯罪的刑事责任体系,达到罪刑相当和预防犯罪的目的,将是人工智能犯罪时代的重要课题。应当根据单位犯罪情况对定罪量刑的标准进行适当调整,比如将单位实施的违法行为升格为犯罪行为处理。也即通过打击违法行为而预防犯罪行为,第286条之一、第287条之一、第287条之二增设的三个罪名都体现了该种犯罪预防思路。具体是借鉴传统立法和司法中因为违法行为主体的数量而将招募下级、发展下线等组织、策划、指挥、纠集、煽动、联络、聚众等主要责任行为予以入罪量刑的实践,可以考虑增设单位实施网络、人工智能违法行为的原则性条款:以单位名义或者单位形式实施刑法规定的网络、人工智能违法行为,人数较多的,应当认定为情节严重,对直接负责的主管人员和其他直接责任人员依照刑法相应条款的规定追究刑事责任;实施其他违法行为,人数较多的,应当认定为情节严重,对直接负责的主管人员判处三年以下有期徒刑或者拘役,并处或者单处罚金。
(二)人工智能的意志力与适格性
在改革开放和市场经济的发展背景下,犯罪主体从原有的自然人扩展到法人等单位主体,这是我国刑法的现有主体结构。那么,在人工智能时代,犯罪主体能否扩展到人工智能本身也成为一个问题,比如沙特授予机器人公民身份。换言之,刑法针对人工智能本身进行犯罪预防是否是必要的?这涉及到延续传统的问责人类程序员的思路所面临的实践困难:软件大多由一个团队构建,不只一个工程师;后续的管理决策和持续维护在重要性上很可能并不比原来的程序决策更低;代码的准确性固然有赖于测试者,但许多软件依赖于原产地和有效性都不可靠的现成组件;最后,人工能动者(artificial agent)正变得越来越有自主性。问责起初的一个程序员,乃至团体的程序员,都变得越来越困难。因此要不要将目光投向末端的人工能动者本身成为一个刑法问题。
现有的自然人和单位犯罪主体都具有行为能力和责任能力。行为能力包括认识能力和意志控制能力。从洛克到康德的法哲学认为,法律主体必须有自我意识,能意识到自己的过去从而认为自己能为过去负责;也就是说,拥有良心自由,能够反思自己行为的对错从而选择自己的行为。成年理性人显然具有这样的认识和意志能力,而法人等单位主体通过法人代表等单位负责人以及其他代理人,也能具有类似的认识和意志能力。人工智能在现阶段仍然处于弱人工智能阶段,可能很长时间后才会进入强人工智能阶段,也就是能像自然人一样去思考和行动。现阶段的弱人工智能具有很大程度的认识能力,但是其意志能力很弱,并不能自主设定目标,也就不能决定改正和避免错误的行为,也不能通过行为承载的自由意志进行对话从而挑战现有规范的有效性。比如人工智能能自主采集和报道新闻,但可能出现错误,甚至中伤他人,但此时并无实际的恶意。这就决定了人工智能没有可谴责(blame)性,而可谴责性是责任能力的一个要素。另一个要素是有独立的利益,而人工智能既没有独立的财产,也没有独立的人身及其承载的人格利益。
但是,应当考虑到人工智能技术突变的可能性及其在法律上得到主体性认可的可能性。在人工智能获得更像人类的特性与能力后,可将伦理决定形式化后内置于人工智能,使其能够学会处理和决定道德问题,从而理解刑罚的意义,反思和控制自己的行为。在技术突变的基础上还要求有民法、公司法上的配套制度才能承认人工智能为受刑主体。刑罚要求具有报应性和预防性,没有反思和控制行为的能力固然达不到刑罚的报应和预防效果,但没有配套制度的实施,也达不到刑罚效果。公司等单位之所以能够成为犯罪主体和受刑主体,一个重要原因是民法和经济法承认了其主体资格,赋予了其相应的行为能力。公司等单位可以拥有自己的财产,判处罚金刑及附带的资格处罚和社会评价能够体现单位犯罪的报应和预防效果。人工智能要具有受刑能力也必须先在民法、经济法等法律上通过行为能力制度设计享有财产等行为能力要素,刑罚通过剥夺和限制其行为能力要素方可达到报应和预防的目的。例如未来劳动立法中确认和保护机器人的劳动者身份和劳动权利。在但立法之前的前瞻性思考则是社会伦理问题。这又回到了何以为人的伦理学和法哲学问题。
二、犯罪行为的认定
虽然传统的犯罪应对方式是先考虑司法上的解释方案,再考虑立法上的犯罪化思路。但这在网络犯罪时代已经被证明是应接不暇的,会放纵犯罪,甚至倒逼类推解释,有违罪刑法定主义。在人工智能犯罪时代,更要注意刑法规范的有效供给。
预防性犯罪化的理念将持续影响犯罪行为及其违法性的认定。在犯罪结果出现以前对相关行为予以刑事规制的预防性犯罪化理念已经在上述单位犯罪责任体系完善中起作用,还将在本部分对犯罪实行、犯罪参与、客观归责和正当事由产生影响,最后在下一部分对主观责任认定产生冲击。本部分犯罪客观方面的认定是刑事责任的基础支柱:人工智能犯罪将一如既往地对计算机网络犯罪的实行观念和参与观念产生冲击,需要刑法规范的调适;接着,应当探讨客观归责与正当事由在人工智能时代的预防性解释问题。
(一)犯罪实行和犯罪参与观念的更新
人工智能犯罪可以分为针对人工智能的犯罪和利用人工智能的犯罪。这种划分与针对计算机网络的犯罪和利用计算机网络的犯罪的二元划分一脉相承。在针对人工智能的犯罪中,面临着行为对象扩容的问题。刑法需要应对病毒、黑客对人工智能的攻击。例如侵入后控制看护机器人。司法解释先是对刑法条文中的“计算机系统”和“计算机信息系统”统一解释为“具有自动处理数据的系统”,显然可以包括人工智能,后来对“信息网络”作了列举,包括各种信息网络,也可涵盖人工智能网络。如此,刑法中既有的非法侵入计算机信息系统罪、非法获取计算机信息系统数据、非法控制计算机信息系统罪、破坏计算机信息系统罪也可保护针对人工智能的犯罪。
但是这种延伸保护思路也将延续原有的问题。破坏计算机信息系统罪在司法实践中被用来应对非法篡改系统数据的行为,如报考信息。但是,这种思路其实是忽视了行为本身的性质。本罪保护的是系统按照既定方式进行运行的正常性,而篡改学历信息或报考信息得以完成和体现恰恰反应了该系统在按照既定方式运行。此类行为的本质是侵犯了数据背后的信息所代表的利益。正是因为刑法本身有缺漏,不能应对前数字化时代的纸本志愿篡改行为,导致司法者在网络时代利用保护系统本身的罪名来保护部分带有数字化特征的篡改行为。这是信息时代的口袋罪,但其功能异化值得反思。此类行为的目的和侵害的法益都非系统安全本身,认定为破坏计算机信息系统罪,并不能做到罪刑相适应。“刑罚的轻重,应当与犯罪分子所犯罪行和承担的刑事责任相适应。”这一刑法原则要求的不仅仅是所受的刑罚严厉性要适当,而且要求所受的刑罚谴责性要合适,也就是应当受到合理的定性评价,表现为英美刑法中的标签理论。如果延伸这种口袋罪思路,那么会出现人工智能时代的标签错误。人工智能的一大特点是人机交互,一个表现是穿戴式、植入式人工智能,如果攻击这些人工智能,仍被认定为破坏计算机信息系统,那么该行为侵害人身利益的性质并未得到标示。而这种人身侵害一旦涉及到不特定人或者多数人,就成为了公共安全问题。如攻击自动驾驶、无人机系统,认定为破坏信息系统罪只是看到了表象。本罪属于扰乱公共秩序罪,而此类攻击行为却是危害公共安全的行为。即使认定为以危险方法危害公共安全罪也只解决了这一类攻击行为的合理标签问题,没有解决其他没有相当危险的攻击行为。
应当充分认识到,攻击系统的行为并不等同于破坏系统,攻击系统的行为只是侵害其他法益的新手段。从攻击行为和危害后果的时空距离来看,攻击系统行为是侵害其他法益的预备。从这个角度改造破坏计算机信息系统罪,就能实现合理的标签效应。如非法侵入计算机信息系统罪固然可以说侵入行为本身具有危害性,但其危害性往往体现在为后续犯罪做准备。破坏计算机信息系统罪应当更名为攻击计算机系统罪,删除第一款中的“造成计算机信息系统不能正常运行”和第三款中的“影响计算机系统正常运行”,不局限于保护系统安全本身,从而既能打击攻击系统以破坏系统运行功能的行为(第一款),又能打击攻击数据、应用程序或者利用病毒等破坏性程序造成系统按既定功能运行从而产生其他侵害后果的行为,例如更改了人工智能的一个数据,导致对使用者的人身伤害(通过诱导用户做出相应行为),或者对公众的危害(通过诱导自动汽车加速或者转弯)。因为目的行为类型多样,所以打击多功能预备行为的本罪只能规定在第六章“妨害社会管理秩序罪”,而本章第一节“扰乱公共秩序罪”应当理解为包括了后面各节不能涵盖的妨害社会管理秩序的罪行,而不仅仅包括扰乱公共秩序的罪行。
问题是,本罪是否真的需要按照预备行为实行化的思路进行改造?预备行为实行化的根本原因是随着技术因素介入犯罪行为链条,原本的预备行为具有了实质性的危害性和独立性,其地位超过了原有的实行行为。网络犯罪异化中的预备行为实行化的典型例子是,传统的伪造证件行为以伪造纸本证件为实行行为,但是在数字化、网络化的信息时代,侵入官方网站篡改学历信息成为伪造纸本证件的先决条件,没有数字化伪造,就难以完成伪造或者说体现纸本伪造的危害性,由此数字化伪造行为具有了独立于纸本伪造行为的实质危害性,可以在刑法上独立评价为实质上直接侵害法益的实行行为。在人工智能时代,这一应对传统犯罪网络异化的基本思路也应当延续。无论是攻击人工智能系统,影响其数据采集、处理,从而影响用户的行为造成人身侵害,还是影响人工智能的后续行为造成公共危险,攻击行为本身的危害性和独立性都超过了后续的被“愚弄”的用户或人工智能的危害行为。在人工智能时代,用户和公众之所以接受人工智能,是因为人工智能能够在大数据的基础上自主行动,也就是说其大数据能力推定了高度的准确性,这种能力是常人所不具有的,常人愿意信服、只能信服。而攻击行为造成人工智能的数据结果差异,人们依然会根据这个数据结果采取相应行为,自然造成后续侵害结果。换言之,只要有了先前的攻击行为,后续的侵害结果的可能性非常高。正如美国法哲学家范伯格所说,危害实现的可能性越高,国家强制干预的必要性越大。所以,正如《刑法修正案(八)》增设了危险驾驶罪以预防后续的高度可能的侵害结果,有必要将先前的攻击人工智能系统的行为作为实行行为处理。由此,攻击计算机系统罪行应当将“后果严重”的要求改为“情节严重”的要求,实现对攻击人工智能行为的预防性犯罪化。
这种预防思路符合计算机网络犯罪预防的一贯思路。首先,《刑法修正案(七)》增设了提供侵入、非法控制计算机信息系统程序、工具罪,只要情节严重即可入罪,实现了对计算机犯罪的刑法预防。不过,在刑法打击攻击人工智能等计算机系统的行为以后,本罪应当扩容为提供侵入、非法控制和攻击计算机系统的程序、工具罪。但是,这仍然只考虑到了人工智能作为计算机系统本身应当受到保护的情形,忽视了人工智能作为计算机系统本身应当受到限制甚至禁止的情形。自动武器的出现意味着人工智能本身也应当受到限制甚至禁止。刑法一贯预防性地打击制造、买卖、持有枪支的行为,但此处的枪支除非通过修改前置的行政管理法规能够包括自动武器,否则应当通过类似《刑法修正案(九)》增设非法利用信息网络罪的思路予以预防其产生危害。非法利用信息网络罪通过打击常见的设立网站、通讯群组,发布信息行为,来预防后续的违法犯罪行为。但这还不够严密,在人工智能时代,刑法更应当增设罪行,打击非法制造、提供、持有自动武器等专门或主要用于违法犯罪活动的人工智能及其方法、安全漏洞,预防人工智能黑市。
系统地看,人工智能犯罪产生侵害结果是一个行为流程链条,涉及到设计、制造、警示、跟踪观察等商业流程,也涉及到安全检测市场准入等行政流程,每一个环节都是风险的节点,需要刑法的预防性审视。整个人工智能风险控制体系的环节可以参照美国学者的研究和建议:立法设定指导性的目标和目的,然后授权政府机构的技术官僚评估人工智能的风险;该机构设定认证投入使用前的人工智能为安全的规则,以及认证研发、测试为安全的规则(例如要求在封闭的环境中进行测试,不能产生测试环境之外的影响),以及认证既存的人工智能为安全的机制,认证时需提交的信息包括所有的源代码、进行测试的所有软硬件描述,以及测试中人工智能表现的描述,以及其他与人工智能安全密切相关的重要信息。由此可见,任何一个商业流程环节或行政把关环节出了问题,都将产生人工智能的安全问题。
首先,在商业流程中的设计、制造、警示、跟踪观察、召回、停止销售等环节,相关主体必须尽到合理义务,限制乃至消除可以预知或可以控制的风险,否则应当进行预防性打击。“人工智能超越人类智能的可能性,人工智能产生危害后果的严重性,以及人工智能技术本身内在的不确定性,这些因素足以构成法律以及其他规范防止风险的必要性。”如果将人工智能视为新时代产品,适用产品责任,可以考虑的罪名是生产、销售伪劣产品罪,但是该罪的行为方式“以次充好或者以不合格产品冒充合格产品”并不能涵盖整个商业流程行为节点,如警示缺陷,跟踪观察。本罪要求销售金额,也就意味着无法规制免费试用行为。这些问题的本源是,本罪属于扰乱市场经济秩序罪,无法应对扰乱社会管理秩序、进而危害公共安全的人工智能研发、推广行为。对此类行为的预防性规制,应当参照刑法修正案(九)增设的拒不履行信息网络安全管理义务罪,对服务提供者拒不改正,情节严重的行为予以打击。在人工智能时代,应当增设拒不履行人工智能安全管理义务罪,对拒不履行设计、制造、警示、跟踪观察、召回、停止销售等安全管理义务,情节严重的行为予以打击,不要求造成严重后果。在预防研发、推广人工智能风险的过程中,企业和技术官僚是互动的主体,企业入罪的前提是监管部门责令改正。但是,需要反思这种前置条件。人工智能安全与原有的信息网络安全有所不同,它处于发展中,很难有全面细致的法律、行政法规规定人工智能安全管理义务。特别是在提供材料进行投入使用前的认证时,很可能明知有重大安全缺陷但仍然只提供明文要求的信息,而不提供其他与人工智能安全至关重要的信息。所以拒不履行人工智能安全管理义务罪行应当只要求明知应当履行,客观上可以履行,却不履行,情节严重即可。当然, 我们需要平衡人工智能研发和使用可能带来的利益和风险,对不同种类人工智能区别对待。这种不要求责令改正的前置条件的严格规制,应当限于可能造成灾难性后果的人工智能领域,例如自动武器的研发和投入使用。正如法哲学家认为的那样,可能的危害性越大,国家强制干预的必要性越大。
其次,政府机构必须建立起监管制度,然后落实好监管制度,以监管人工智能的测试、投入使用以及使用跟踪。例如,政策制定者应当根据对使用自动战车的经济成本有重大影响的设计方案来决定遵循战争法和避免平民伤亡的程度。又如,政府应当考虑是否、如何根据无人机的用途、尺码或者风险水平采取不同的规制思路。再如,2017年12月《北京市关于加快推进自动驾驶车辆道路测试有关工作的指导意见(试行)》正式出台,规定了测试管理制度。在人工智能时代,未建立相应的测试、认证、跟踪等监管制度的,例如相应的硬件安全标准、软件安全标准、公众知情标准,以及未落实好监管制度的,应当进行预防性打击。但是, 如果仍然依赖滥用职权罪、玩忽职守罪,则仍然面临“致使公共财产、国家和人民利益遭受重大损失的”罪刑法定约束。这将是立法者的滥用职权、玩忽职守:首先,没能在行政监管环节有效控制人工智能的风险,未能满足人民的安全需求;其次,行政相对人的预防义务逐步推进,而行政主体的预防义务踟蹰不前,有违立法平等,司法更难以平等。这也凸显了原来的信息网络安全管理义务的设定和分配有所不公。
在上述设定的行政主体和相对人互动的人工智能风险控制机制中,一个典型的例子将是危险驾驶行为的智能化演变。换言之,在自动驾驶这一人工智能领域,将突出体现应当同时推进和落实双方的预防义务。现有的危险驾驶罪只针对驾驶者的醉酒驾驶和追逐竞驶行为,交通法也只关注汽车装置的安全性和驾驶者的安全驾驶能力,但是在自动驾驶时代,立法应当关注的是避险保障和精确驾驶的软硬件体系。换言之,人工智能时代的危险驾驶行为概念发生了扩容,扩张到造成驾驶危险的行为,也就应当包括企业和政府双方的风险管理不力行为,这是人工智能时代的刑法和交通法需要解决的问题。
在上述预备行为独立性增强和危害性增大的过程中,也凸显了共犯行为独立性的增强和危害性的增大。在最终侵害法益的行为之前的行为环节都可看作是预备行为环节,这些环节往往不是由一个主体统一完成的,而是由多个主体共同加功而成的,这将对正犯行为的理解产生挑战。有学者总结了人工智能规制的问题在于其分散性、弥漫性、组件性:分散性是指人工智能项目的研发很可能不需要像二十世纪大多数工业机构那样的大规模的、集中的机构环境,而是可以体现为小作坊式的单兵作战;弥散性是指人工智能项目的研发可以由互不联系的多方在各自不同的地方和法域完成;组件性是指人工智能项目将利用组件技术和成分,其完全的潜能直到所有成分组到一起才会明朗化。人工智能的这三个特征给人工智能犯罪的正犯行为认定带来挑战:最终侵害行为之前的各个研发行为环节由不同主体在互不联系的情况下在不同时空环境下独立地完成,而这些环节只有到了最后投入使用时才知道其特定的法益侵害性,但这些环节组合到一起时,最终的法益侵害性也是自然而然的事,普通人皆可完成最终侵害行为。所以,这些先前环节的行为危害性增大,独立性增强,必须各自得到独立的评价,各自评价为独立的犯罪。这就是共犯行为正犯化的思路。
这种新时代犯罪应对思路在之前的网络犯罪中已经出现、得到认可。传统共同犯罪是犯罪人之间密切联系,目标明确,所以只有最终造成法益侵害的行为才是正犯行为。但传统犯罪的网络异化改变了这一思路:研发和提供犯罪工具、方法、技术的行为成为后续与其没有密切联系的多个普通人的侵害行为得以完成的关键,应对这种实质性行为环节直接以正犯处理,突出表现是“司法解释对于四种类型的传播淫秽物品的网络技术支持行为, 不再作为帮助行为定性, 而是直接作为传播淫秽物品罪、传播淫秽物品牟利罪的实行行为加以评价和制裁”。这种思路在《刑法修正案(九)》中得到集中认可,增设了帮助信息网络犯罪活动罪。人工智能时代的帮助行为的独立性和危害性将更加凸显,可以预见,这种共犯行为正犯化的思路将继续影响人工智能犯罪的司法与立法。这不仅是正犯行为实质定义的改变,也是正犯行为程序追诉的需求:各个环节的主体在不同的时空环境下互不联系而各自加功,只能分别对其行为做出独立的规范评价,而不能依赖最后行为人的责任确定之后再行追诉。
人工智能引发了新的客观归责问题。人们想归责的愿望和和缺乏合适的报应性谴责主体之间不相匹配。机器人将工人压死,将病人致伤,或者自动驾驶危害公共安全,此时客观归责发生变化,具有相关关系即可客观归责,不需要社会相当性。德国、美国传统刑法都认为有因果关系中断时,例如他人放火或者失火导致先前行为致伤的受害人在医院死亡,可以阻断客观归责。但是,这种因果关系中断不能适用于人工智能,不能说有了机器人的自主行为,就切断运营者和危害后果的归责链条:一是因为实际情况可能并非机器人的“自主”行为导致危害后果,而是编程确有重大疏忽;二是因为如果中断归责,无法问责机器或者其身后的人,将导致责任缺口,继而导致对人工智能发明的支持的下降。换言之,虽然人工智能导致某类具体损害后果并不是社会常态现象,不能推出运营者有类型化的疏忽,但是,运营者必须切实采取相关制度性的措施,才能免于承担相应后果的责任。在制度性过错的基础上,能将危害后果进行归责。如果运营者在研发、测试、报批、跟踪服务、召回等各个环节都履行了法律、法规和行业准则要求的注意义务,就不能将后果在刑法上归责,这种后果只能在民法、经济法上进行归责,例如利用保险制度进行责任分配,换言之,刑法上的归责和民法上的归责有所不同。
中断客观归责的可能情形是,下游环节更改了人工智能系统。前已述及,人工智能研发具有离散性和组件性,其他参与主体很可能对人工智能系统进行改动,这种改动是无法具体预知和具体控制的。不过这涉及到生产者是否有更新人工智能系统的义务。美国判例和学者认为生产者一般没有更新义务。但这应当在整个风险规制的体系中理解:只有生产者尽了与风险相当的其他合理义务之后,才能免除其没有更新系统造成后果的归责,也就是要尽到合理的警示义务。
前面论及的预防性刑法规制体系就是在进行制度化的以相关性为基础的归责体系建设。例如,非法利用人工智能操纵证券期货市场的,如果是他人的攻击行为,固然可以认定为非法攻击系统的罪行,予以预防性打击;但如果是人工智能原本的控制人的行为,则应当另行进行预防性规制:控制人利用大众对处理大数据的人工智能的“自愿服从”而(可能)导致公众损失的,应当在非法利用阶段就予以刑法介入,而不讨论具体的经济损失行为是否因为介入了公众的“自主”行为而阻断归责。
但是,风险具有常态性时排除归责。在某类人工智能危险成为社会常态,例如自动驾驶突然偏离行道,被看作是日常生活的一部分时,接触此类人工智能成为人们的正常风险,此时排除客观归责;但这是人工智能成熟使用阶段的规范评价,而非试用阶段的规范评价,在人工智能初期,此类风险不应当看作是日常性的,而是人工智能创设的异常的风险,仍要归责于运营者。之所以说异常,是因为今天我们与机器共享物理空间,该机器要么虽有自由行动范围,但由我们控制,例如汽车,要么虽由电脑控制,但行动范围高度受限,例如电梯;但是无人驾驶汽车由计算机控制,却能引导自己的活动,且有巨大的活动范围,这给普通人例如行人带来了更小的关于他人行动的预测性。
排除违法性的正当事由制度也受到常态性的冲击。人工智能使用中的风险导致不同主体的不同类型的利益处于竞争和冲突之中,需要法律的衡量和取舍。首先是要保障把人的生命放在首位,不能为了其他人身权利甚至财产利益而舍弃生命。其次要保障算法平等,人们不因年龄、性别、种族、民族等个人身份受到歧视。即便如此,我们仍然面临牺牲或伤害少数人而挽救多数人的紧急避险问题。一般认为,如果允许,则符合功利主义,但似乎不符合自由主义,因为任何人不应当仅仅作为实现其他目的的手段,否则就侵害了该人的尊严。
这种问题在前人工智能时代只是偶发现象,法律没有必要给出明确规则,只需司法者在个案中裁量,例如教学案例中创设的少数是否要被牺牲以挽救多数的情景冲突。但是在人工智能时代,这种法益冲突问题常态化,成为研发和规制中的类型化问题。这不仅在自动驾驶中的突发障碍中要面临,而且在无人机的不当使用中更成为要早做考量的问题。想想“后9.11时代”无人机用于恐怖袭击,是否要击落无人机挽救重大目标,哪怕牺牲被砸的无辜者?反恐怖主义是现代战争,这种法益冲突和衡量义务是国家必须面对的。
一种方案是设定为请求人工处理,将难题恢复到人工具体分析状态。但是,人在紧急状态下做出的决定很可能还不如事先做好的决定。另一种方案是事先设定规则。此时,应当对人工智能预设道德准则,为人工智能进行伦理指引。有德国学者认为,国家可以,但非必须设定数量规则:道德决定必须合理地尊重涉事方的利益,而事先的算法平等地减少了每个人的潜在受害人身份几率,正是通过公平裁量而合理地尊重了每个人的利益,所以国家事先规定采取此种算法是通过制定和执行规则来履行保护生命的积极义务,并未违反人类尊严和平等价值。
三、严格责任的趋向
传统的犯罪故意和犯罪过失认定以行为人针对犯罪结果的认识和意志为前提展开,这种认定模式在人工智能时代将面临常态性的挑战。正如有学者指出的那样:“以过错责任为基础而建立的‘风险分配’责任体系,在未来的交通法规中将不复存在。对于道路交通责任事故的认定,其归责事由只有结果的‘对与错’,而无主观上的‘故意’或‘过失’。”这就是说,人工智能相关主体对于侵害结果谈不上故意和过失。这是因为人工智能可以是自动的,以原先的编程员不可预见的方式运行,或者以法律上为其负责的主体所不再能控制的方式运行,甚至在超级智能时代可以超出所有人的控制范围。在责任主体没有预见或者控制相关危害后果的能力时,刑法上的故意和过失概念也将被消解。换言之,人工智能时代的犯罪主观状态或者说责任认定将以严格责任为常态,而以过意和过失为例外。
严格责任(strict liability)一般被认为是英美刑法的特色,甚至被认为是结果责任的残余,侵害了责任主义谴责(condemn)和预防犯罪的刑法机能。其实这是对严格责任的误读。严格责任并非无过错(fault)责任,而一般是指犯罪客观方面的某些要素不需要相应的主观过错,但是犯罪客观方面的其他要素还是需要相应的主观过错,例如在英国为了保护未成年人的监护权,一般认为客观上是未满相应年龄即可,不要求年龄的主观认识,但仍要求认识到诱拐行为违反了监护人的意志。严格责任的立法考量因素是:需要预防的危险是如此之重要和急迫的,严格责任能够推进相关目标,并且其适用和覆盖范围得到限制。
这种英美刑法中的严格责任并非绝对责任,其在我国刑法和理论中也逐步得到承认。首先是同类行为的故意责任和过失责任规定于同一条款,适用同等刑法幅度。例如在立法规定上,滥用职权和玩忽职守行为,都是渎职行为,但不强求对危害后果有故意或者过失责任,满足故意或者过失都可构成犯罪(当然司法上面临选择哪个罪名的问题)。该条可以统称为渎职罪。出于重大公共利益的考虑,且鉴于法定犯的故意与过失之间的伦理谴责性差异不大,为严密刑事法网,提高追诉效率,不管对结果持故意还是过失态度都构成本罪;严格区分故意与过失的传统观点已经不能适应法定犯时代的要求。然后是对危害结果既不要求故意也不要求过失,只要实施分则规定的行为即可构成犯罪。例如交通肇事罪,刑事诉讼中几乎不可能要求检察官证明行为人对具体的危害后果有预见能力甚至已经预见,检察官只需证明行为人实施了违反道路交通管理法规的行为,导致了危害后果即可。这种情况已经为我国学者在理论上界定为客观的超过要素,例如对丢失枪支不报罪中的危害后果而言,不要求证明行为的主观责任,只要求证明故意不报即可。最后是直接将故意行为规定为犯罪,不要求证明出现危害后果及其责任,而直接打击危险行为。例如《刑法修正案(八)》增设危险驾驶罪,不要求证明肇事及其责任。
这三种情况体现出来的弱化针对危害后果的主观责任倾向在网络犯罪的规制体系中已经凸显。《刑法修正案(九)》规定了拒不履行信息网络安全管理义务罪,它只要求故意拒不改正,不要求对严重后果的主观责任;即使认为对发生的严重后果要求主观责任,本罪也同时规定了情节严重即可入罪,也就是可以直接打击情节严重的危险犯。
在人工智能时代,这一趋势将更加凸显。人工智能犯罪的刑法规制体系,必须在责任要素上普遍采纳严格责任,对超过的客观要素(结果)不强求故意或者过失;必要时直接规定危险犯,正如前已论及的预备行为实行化,连客观的结果要素都不要求。
结语:新犯罪时代的新预防策略
人工智能犯罪的刑事规制体系不可避免地要比较和借鉴英、美、德、日等法域的刑法体系和最新趋向。但是,要注意域外刑法的历史背景,其不是从一开始就有一套教义学体系,也不是从来就是现在这一套教义学体系。西方法治发达国家的法律体系形成于农业时代,完备于工业时代,但它在计算机网络和人工智能技术不断发展的信息时代背景下不断受到冲击,西方也在考虑不断进行变革。要考察其当下的合理性,合不合适,要自己思考才知道,我国刑法不能削足适履。在人工智能时代,中国实践已经在世界前列,中国刑法规范的变革不可亦步亦趋,坐等他国刑法规范变迁然后学习,而是必须结合自己既有的刑法实践经验和理论积累不断内化生成自己的规范体系。
人工智能时代的新犯罪层出不穷、不断变异。本文与其说提出了一些人工智能犯罪问题的解决方案,不如说提出了更多的刑法规范问题,以期待更多的争鸣与探索。例如现在可以开始考虑人工智能犯罪的人工智能解决。人工智能能够帮助做出是否予以缓刑、假释等刑罚处遇的决定,这虽然不是人工智能犯罪的问题,但却表明人工智能除了可以运用于犯罪,也能用来应对犯罪。人工智能可以快速有效地搜集、整理各个法域应对人工智能犯罪的新立法、新司法、新理论,并结合特定法域的人工智能犯罪情况给出相应的建议,由法律人权衡后作出决策,这就可以是人工智能助力我们解决人工智能犯罪有效方式。此外,通过设计来规制机器人的行为应当得到重视。例如立法可以规定人工智能通过编程设定为自主报警,如在使用者制作兴奋剂时被人工智能感知并报警。这对商业流程环节和行政把关环节的预备行为实行化和共犯行为正犯化的法律考量应当会产生制度性的影响。
作者简介:郭旨龙,中国政法大学刑事司法学院网络法学研究所讲师。
因篇幅原因,省略注释。
文章原载:《当代法学》2020年第2期。
本期编辑:李淑文。
本期校审:张若楠。
转载本文请注明原文作者和出处。
欢迎学界实务界同仁投稿“刑法界”,作品请发至xingfajie@163.com,本公众号将择优推送。